Obawy rosną, ponieważ filmy generowane przez sztuczną inteligencję szerzą nienawiść i rasizm w sieci: „Brak zasad bezpieczeństwa”
Na pierwszy rzut oka wydaje się, że to dziwaczny klip wideo wygenerowany przez sztuczną inteligencję, mający na celu rozśmieszenie ludzi.
Na obrazie widzimy włochatą Wielką Stopę w kowbojskim kapeluszu i kamizelce ozdobionej amerykańską flagą, siedzącą za kierownicą pickupa.
„Idziemy dziś na paradę LGBT” – mówi małpopodobne stworzenie ze śmiechem. „Będziecie zachwyceni”.
Następnie wydarzenia przybierają gwałtowny i niepokojący obrót, gdy Wielka Stopa przejeżdża przez tłum krzyczących ludzi, z których niektórzy trzymają tęczowe flagi.
Klip opublikowany w czerwcu na stronie AmericanBigfoot na TikToku zgromadził ponad 360 000 wyświetleń i setki komentarzy, z których większość wyrażała uznanie dla filmu.
W ostatnich miesiącach podobne treści generowane przez sztuczną inteligencję zalały media społecznościowe, otwarcie promując przemoc i szerząc nienawiść wobec członków społeczności LGBTQ+, Żydów, muzułmanów i innych grup mniejszościowych.
Historia ciąg dalszy poniżej reklamy
Choć pochodzenie większości tych filmów nie jest jasne, ich rozpowszechnianie w mediach społecznościowych wywołuje oburzenie i zaniepokojenie wśród ekspertów i obrońców praw człowieka, którzy twierdzą, że kanadyjskie przepisy nie nadążają za tempem nienawistnych treści generowanych przez sztuczną inteligencję ani nie są w stanie odpowiednio zareagować na zagrożenia, jakie stwarzają one dla bezpieczeństwa publicznego.
Premier Saskatchewanu będzie ścigał twórców „głębokich podróbek” AI przedstawiających jego i Carneya
Egale Canada, organizacja działająca na rzecz osób LGBTQ+, twierdzi, że społeczność jest zaniepokojona rosnącą liczbą treści dezinformacyjnych o charakterze transfobicznym i homofobicznym w mediach społecznościowych.
„Te narzędzia sztucznej inteligencji są wykorzystywane jako broń do dehumanizacji i dyskredytowania osób transpłciowych i osób o zróżnicowanej płci, a obowiązujące przepisy dotyczące bezpieczeństwa cyfrowego nie radzą sobie ze skalą i szybkością tego nowego zagrożenia” – powiedziała w oświadczeniu dyrektor wykonawcza Helen Kennedy.
Szybko rozwijająca się technologia dała złoczyńcom potężne narzędzie do szerzenia dezinformacji i nienawiści, przy czym osoby transpłciowe padają ofiarą tych ataków w nieproporcjonalnie dużym stopniu – powiedziała Kennedy.
Historia ciąg dalszy poniżej reklamy
Społeczność LGBTQ+ nie jest jedynym celem, powiedział Evan Balgord, dyrektor wykonawczy Kanadyjskiej Sieci Przeciwdziałania Nienawiści. Dodał, że treści o charakterze islamofobicznym, antysemickim i antyazjatyckim, tworzone za pomocą generatywnych narzędzi sztucznej inteligencji, są również szeroko rozpowszechnione w mediach społecznościowych.
„Kiedy tworzą środowisko, w którym panuje powszechna pochwała przemocy wobec tych grup, zwiększa się prawdopodobieństwo, że przemoc wobec tych grup będzie miała miejsce osobiście lub na ulicach” – ostrzegał Balgord w wywiadzie telefonicznym.
Badanie wykazało, że ChatGPT w ponad połowie przypadków reagował w niebezpieczny sposób na użytkowników szukających porady
Dodał, że kanadyjskie przepisy dotyczące bezpieczeństwa cyfrowego już wcześniej pozostawały w tyle, a postęp w dziedzinie sztucznej inteligencji jeszcze bardziej skomplikował sytuację.
Otrzymuj najważniejsze wiadomości dnia, informacje polityczne, gospodarcze i bieżące wydarzenia, dostarczane raz dziennie do Twojej skrzynki odbiorczej.
Historia ciąg dalszy poniżej reklamy
Projekty ustaw mające na celu zwalczanie szkodliwych treści w Internecie i ustanowienie ram regulacyjnych dotyczących sztucznej inteligencji upadły, gdy w styczniu parlament zawiesił obrady — powiedziała Andrea Slane, profesor prawa na Ontario Tech University, która przeprowadziła obszerne badania na temat bezpieczeństwa w Internecie.
Slane powiedział, że rząd musi ponownie przyjrzeć się ustawodawstwu dotyczącemu szkodliwych treści w Internecie i „pilnie” ponownie przedłożyć projekt ustawy.
„Myślę, że Kanada znalazła się w sytuacji, w której po prostu musi się ruszyć” – powiedziała.
Minister sprawiedliwości Sean Fraser powiedział w czerwcu w wywiadzie dla The Canadian Press, że rząd federalny „na nowo” przyjrzy się ustawie Online Harms Act, ale nie zdecydował jeszcze, czy ją przepisać, czy po prostu ponownie wprowadzić. Ustawa miała między innymi na celu pociągnięcie platform mediów społecznościowych do odpowiedzialności za ograniczanie ekspozycji na szkodliwe treści.
Rzecznik nowo utworzonego Ministerstwa Sztucznej Inteligencji i Innowacji Cyfrowych powiedział, że rząd traktuje poważnie problem treści nawołujących do nienawiści, tworzonych przez sztuczną inteligencję, zwłaszcza gdy dotyczą one wrażliwych grup mniejszościowych.
Trenerka drużyny futbolowej dziewcząt z Alberty oskarżona o tworzenie pornografii dziecięcej przy użyciu sztucznej inteligencji
Sofia Ouslis stwierdziła, że obowiązujące przepisy rzeczywiście zapewniają „istotną ochronę”, ale przyznała, że w momencie ich projektowania nie miały one na celu rozwiązania problemu zagrożenia, jakie stanowi sztuczna inteligencja generatywna.
Historia ciąg dalszy poniżej reklamy
„Istnieje realna potrzeba zrozumienia, jak narzędzia sztucznej inteligencji są wykorzystywane i nadużywane – i jak możemy wzmocnić te zabezpieczenia” – stwierdziła w oświadczeniu. „Prace te trwają”.
Prace obejmują przegląd istniejących ram, monitorowanie orzeczeń sądowych „oraz uważne słuchanie ekspertów prawnych i technologicznych” – powiedziała Ouslis. Dodała, że rząd premiera Marka Carneya zobowiązał się również do uznania dystrybucji niechcianych deepfake'ów o charakterze seksualnym za przestępstwo.
„W tej dynamicznie zmieniającej się branży uważamy, że lepiej jest wprowadzić właściwe regulacje, niż działać zbyt szybko i popełnić błędy” – powiedziała, zaznaczając, że Ottawa chce uczyć się od Unii Europejskiej i Wielkiej Brytanii.
Slane stwierdził, że Unia Europejska wyprzedziła inne kraje w zakresie regulacji dotyczących sztucznej inteligencji i zapewniania bezpieczeństwa cyfrowego, ale pomimo bycia „w czołówce” panuje przekonanie, że należy zrobić więcej.
Eksperci twierdzą, że regulowanie treści rozpowszechnianych przez gigantów mediów społecznościowych jest szczególnie trudne, ponieważ firmy te nie są kanadyjskie.
„Krwawa łaźnia białych kołnierzyków”: Czy sztuczna inteligencja zniszczy podstawowe stanowiska biurowe?
Kolejnym czynnikiem komplikującym sytuację jest obecny klimat polityczny na południe od granicy, gdzie amerykańskie firmy technologiczne borykają się ze słabszymi regulacjami i ograniczeniami, co sprawia, że są „silniejsze i czują się mniej odpowiedzialne” – powiedział Slane.
Historia ciąg dalszy poniżej reklamy
Jak powiedział Peter Lewis, przewodniczący Kanadyjskiej Katedry Badań nad Godną Zaufania Sztuczną Inteligencją, mimo że sztuczna inteligencja generatywna jest obecna na rynku już od kilku lat, w ostatnich miesiącach nastąpił „przełom”, dzięki któremu produkcja wysokiej jakości filmów przy użyciu narzędzi, które są w większości dostępne za darmo lub za bardzo niską cenę.
„Muszę powiedzieć, że obecnie jest to naprawdę dostępne praktycznie dla każdego, kto ma odrobinę wiedzy technicznej i dostęp do odpowiednich narzędzi” – powiedział.
Lewis, który jest również adiunktem na Ontario Tech University, powiedział, że duże modele językowe, takie jak ChatGPT, wdrożyły zabezpieczenia mające na celu filtrowanie szkodliwych lub nielegalnych treści.
Dodał jednak, że trzeba zrobić więcej w branży wideo, aby stworzyć takie zabezpieczenia.
„Moglibyśmy obejrzeć ten film i pewnie byliby przerażeni” – powiedział, dodając, że „nie jest do końca jasne, czy system sztucznej inteligencji ma zdolność do refleksji nad tym, co stworzył”.
Wirusowe wideo chińskiego paralotniarza prawdopodobnie zmanipulowane przy użyciu sztucznej inteligencji
Lewis powiedział, że choć nie jest ekspertem prawnym, uważa, że obowiązujące przepisy można wykorzystać do walki z internetowym gloryfikowaniem nienawiści i przemocy w filmach AmericanBigfoot.
Historia ciąg dalszy poniżej reklamy
Dodał jednak, że szybki rozwój sztucznej inteligencji generatywnej i powszechna dostępność nowych narzędzi „wymagają nowych rozwiązań technologicznych” oraz współpracy między rządami, konsumentami, rzecznikami, platformami społecznościowymi i twórcami aplikacji AI, aby rozwiązać ten problem.
„Jeśli takie rzeczy są przesyłane… potrzebujemy naprawdę solidnych i responsywnych mechanizmów zgłaszania, aby móc usuwać je z internetu tak szybko, jak to możliwe” – powiedział.
Lewis powiedział, że użycie narzędzi AI do wykrywania i oznaczania takich filmów jest pomocne, ale nie rozwiąże problemu.